AI 3.0
[status:: Done]
[format:: kindle]
AI 3.0
也就是说,做卷积分析,就是面对一个不知其内部构造如何的对象,通过输入一个已知的函数,观察输出函数,最终给出对目标对象内部构造的一个猜测。
143-144
侯世达在40多年前写作“GEB”的时候,针对人工智能提出了10个问题并给出了自己的答案,侯世达对这10个问题的思考,更多地指向形式逻辑、符号演算和线性思维天然的不足之处,这一不足之处正在于:符号思维难以超越其内生的逻辑悖论。
259-261
从邱奇-图灵论题(Church-Turing thesis)开始,在诺依曼有意无意的引导下,学界关于智能的思考和认识逐渐形成了两个派别:“图灵派”和“歌德尔派”。 图灵派本质上是计算主义,认为基于简单规则的计算可以涌现出复杂的行为和智能。
338-341
歌德尔派认为根本没有构建智能的一般规律和方法,而且现有的一些规律和方法不应成为第一性的,只有动因和信念才是本质,接受现状继续演化是发展人工智能的唯一途径。
342-343
歌德尔认为,存在先于可计算的不可计算,即存在不可计算的客观存在。存在不可计算的物理、生命和数学过程,且计算机不能真正理解语言和想象等相关的活动。
345-347
这似乎是一种常见的反应:当计算机在某一特定任务上超越人类时,我们就得出结论,该任务实际上并不需要智能。正如麦卡锡哀叹的那样:“一旦它开始奏效,就没人再称它为人工智能了。” 4
1214-1216
库兹韦尔最广为人知的并不是他的发明,而是他作为未来学家的预测,最著名的就是他提出的“奇点”的概念:“在未来的某个时期,技术变革的步伐将如此之快,影响将如此之深,以至于人类生活将被不可逆转地改变。” “奇点”一词的含义为:“具有非凡影响的一个独特事件,特别是,一件能够分裂人类历史结构的事件。”对于库兹韦尔来说,这一独特的事件就是人工智能超越人类智能。
1379-1383
1965年,英特尔公司的联合创始人戈登·摩尔(Gordon Moore)提出了一个被称为摩尔定律(Moore's Law)的趋势:计算机芯片上的组件数量每隔1~2年就会翻一倍。换句话说,这些组件正在以指数级的速度变得越来越小,而且越来越便宜,计算机的运算速度和内存容量也在以指数级速度增长。
1440-1443
在她提到库兹韦尔时,吴恩达条件反射性地翻了个白眼,并说道:“每当我读到库兹韦尔的《奇点临近》时,我的眼睛就会不受控制地做出这种反应。”
1474-1476
该领域最近的一项研究表明:“一堆狭义智能永远也不会堆砌成一种通用人工智能。通用人工智能的实现不在于单个能力的数量,而在于这些能力间的整合。”
1574-1576
人类具有一种当前所有的人工智能系统都缺乏的基本能力:运用常识。我们拥有关于这个世界的体量庞大的背景知识,包括物质层面及社会层面。我们对现实世界中的事物会如何行动或变化有充分的了解,无论它是无生命的还是有生命的,我们广泛地运用这些常识来决定如何在特定情况下采取行动。
2179-2181
机器学到的是它在数据中观察到的东西,而非我们人类可能观察到的东西。如果训练数据具有统计性关联,即使这些关联与机器要解决的任务无关,机器也会很乐意学习这些内容,而不是学习那些我们希望它学习的内容。
2197-2199
当考虑其他人时,你具有心理学家所说的一种心智理论:理解他人在特定情况下所运用的知识和可能会选择的目标。对于像DNN这样的人工智能系统,我们并没有类似的心智理论作为支撑,这就使得我们更难信任它们。
2256-2258
与目前的ConvNets不同,人类和动物的感知受到认知的高度调节,这里的认知指的是我在前文描述的一种对情境的理解。此外,目前在计算机视觉应用中使用的ConvNets通常是完全前馈的,而人类视觉系统则具有更多的反馈连接。虽然神经科学家还不了解所有这些反馈连接的功能,但有一点可以推测,至少其中的某些反馈连接有效地防止了类似ConvNets易受对抗样本影响的那种漏洞,那么为什么不在ConvNets中植入同样的反馈连接呢?这是一个非常活跃的研究领域,但也是非常困难的,并且目前还未取得像前馈网络那样的成功。
2345-2349
人工智能在现实世界的大多数领域中都会面对这种长尾效应:现实世界中的大部分事件通常是可预测的,但仍有一长串低概率的意外事件发生。如果我们单纯依靠监督学习来提升人工智能系统对世界的认识,那么就会存在一个问题:尾部的情况并不经常出现在训练数据中,所以当遇到这些意外情况时,系统就会更容易出错。
2380-2383
电能与人工智能的一个主要的区别在于,电能在被广泛商业化之前就已经被充分认识,我们非常了解电能的功用,而对于如今许多人工智能系统的情况,我们却没有足够的认识。
2437-2439
心理学家乔书亚·格林(Joshua Greene)在他对这项研究的评论中指出:“在将我们的价值观置入机器之前,我们必须弄清楚如何让我们的价值观清晰且一致。”
2580-2581
换句话说,可信任的道德理性的一个先决条件是通用的常识,而这,正如我们所见,即使在当今最好的人工智能系统中也是缺失的。
2589-2591
简而言之,强化学习不是将其输出与人类给定的标签进行匹配,而是假设后续迭代给出的值比前面迭代给出的值更好,网络学习的是使其输出在一次迭代到下一次迭代的过程中保持一致。这种学习方法被称为时序差分学习(temporal difference learning)。
2859-2861
正如香农在1950年有预见性地写道:“一台能在国际象棋上超越人类的机器将迫使我们要么承认机械化思维的可能性,要么进一步限制我们对‘思维’这一概念的理解。” 如今,后者已经发生了。
2968-2970
这个名字来源于一个想法:就像蒙特卡洛赌场那标志性的快速旋转的轮盘一样,一定程度的随机性可被用在计算机上来解决复杂的数学问题。
3049-3050
这个名字来源于一个想法:就像蒙特卡洛赌场那标志性的快速旋转的轮盘一样,一定程度的随机性可被用在计算机上来解决复杂的数学问题。 蒙特卡洛树搜索是专门为计算机游戏程序设计的蒙特卡洛方法的一个版本。与深蓝的评估函数的工作原理类似,蒙特卡洛树搜索用于为一个给定棋局的每一种可能的行棋方式来分配分数。可是,正如我在上面所解释的那样,在博弈树中使用大量的前瞻操作对围棋来说是不可行的,并且还没有人能为围棋中的棋局提出一个良好的评估函数。因此,蒙特卡洛树搜索的工作原理肯定有所不同。
3049-3054
任何一个复杂的工程项目都适用一个著名的经验法则:项目前90%的工作占用10%的时间,而后10%的工作占用90%的时间。我认为这个规则也适用于许多人工智能领域,比如自动驾驶汽车,当然也适用于语音识别。
3373-3375
尽管词向量可能是无可指责的,但它们是现代自然语言处理系统(从语音识别到语言翻译)的关键组成部分,词向量的偏见可能会渗透在广泛使用的自然语言处理应用中,并产生让人意想不到的偏见。
3599-3601
应该在一个递归神经网络的每个单元中都构造一个更加复杂的结构,并给其分配专门的权重来判定什么信息应该在下一个时步被发送出去,以及什么信息可以被“遗忘”。研究人员称这些更复杂的单元为“长短期记忆”(long short-term memory, LSTM)单元 8 。这是一个令人困惑的名字,它指的是这些单元允许更多短时记忆贯穿句子的整个处理过程。
3680-3684
这些微型的语言理解测试被称为“威诺格拉德模式”(Winograd schemas),以最先提出这个想法的自然语言处理领域的先驱特里·威诺格拉德(Terry Winograd)的名字命名 22 。威诺格拉德模式被精确设计为对人类而言很简单,但对计算机而言却很棘手。
4168-4171
心理学家为此创造了术语“直觉物理学”(intuitive physics)来描述人类对物体及其运转规则所具有的基本知识。当还是孩童的时候,我们还发展出了“直觉生物学”(intuitive biology)的概念,用以区分生命体和非生命体。
4316-4318
概念滑移(conceptual slippage)这一概念是做类比的核心。 19 当你试图感知两种不同情境在本质上的共性时,来自第一种情境的某些概念需要“滑移”到第二种情境中,即被第二种情境中的相关概念所取代。
4661-4663
人类智能的一个必不可少的方面,是感知并反思自己的思维能力,这也是人工智能领域近来很少讨论的一点,在心理学中,这被称作“元认知”。
4705-4706
有一小部分人工智能研究群体一直主张所谓的具身假说:如果一台机器没有与世界进行交互的实体,那它就无法获得人类水平的智能。 这种观点认为:一台放置在桌子上的计算机,甚至是生长在缸中的非实体的大脑,都永远无法获得实现通用智能所需的对概念的理解能力。只有那种既是物化的又在世界中很活跃的机器,才能在其领域中达到人类水平的智能。
4770-4774
一句值得记住的格言是:对于一项复杂的技术项目,完成其前90%的工作往往只需要花费10%的时间,而完成最后10%则需要花费90%的时间。
4848-4849
在我看来更有可能的是:这些所谓的人类局限性,正是构成我们人类的通用智能的一部分。在现实世界中劳作的躯体、我们进化出的能够让人类作为一个社会组织来运行的情绪和非理性偏见,还有所有其他偶尔被认为是认知缺陷的品质给我们带来的束缚,实际上正是让我们成为一般意义上的聪明人而不是狭隘的博学之士的关键。我无法证明这一点,但我认为通用智能很有可能无法剥离所有这些人类的或机器的明显缺陷。
4977-4981
侯世达在其“GEB”一书的“10个问题和推测”部分,使用了一个看似简单的问题来回应这个问题:“一台会思考的计算机能够快速计算加法吗?”他给出的答案是:“也许不会。我们自身是由可进行复杂计算的硬件组成,但这并不意味着在我们的‘符号级别’(symbol level) (49) ,即‘我们’本身知道如何执行同样复杂的计算。幸运的是,你的符号级别(即‘你’)无法访问你现在正在执行思考任务的神经元,否则你会变得头脑糊涂,为什么对一个智能程序不应是同样的呢?”侯世达接着解释说:“像我们人类一样,一个智能程序会将数字表示成一个完备的、充满关联的概念,有了所有这些需要随身携带的额外的‘负担’,一个智能程序在执行加法时就会变得相当迟钝。” 当我第一次读到这个答案时,我感到很惊讶,但现在我觉得它很正确。
4981-4992
正如人工智能研究人员佩德罗·多明戈斯所说的那段令人印象深刻的话:“人们担心计算机会变得过于聪明并接管世界,但真正的问题是计算机太愚蠢了,并且它们已经接管了世界。”
5019-502